1
Contraste entre paradigmas de utilización de datos: El espectro de etiquetado
EvoClass-AI003Lecture 10
00:00

Contraste entre paradigmas de utilización de datos: El espectro de etiquetado

El éxito en el despliegue de modelos de aprendizaje automático depende críticamente de la disponibilidad, calidad y costo de los datos etiquetados. En entornos donde la anotación humana es costosa, inviable o altamente especializada, los paradigmas estándar se vuelven ineficientes o fallan por completo. Introducimos el espectro de etiquetado, que distingue tres enfoques fundamentales según la forma en que aprovechan la información: Aprendizaje supervisado (AS), , Aprendizaje no supervisado (ANS), y Aprendizaje semi-supervisado (ASS).

1. Aprendizaje supervisado (AS): Alta fidelidad, alto costo

El AS opera sobre conjuntos de datos donde cada entrada $X$ está explícitamente emparejada con una etiqueta de verdad fundamental conocida $Y$. Aunque este enfoque generalmente alcanza la mayor precisión predictiva para tareas de clasificación o regresión, su dependencia de etiquetado denso y de alta calidad es intensivo en recursos. Su rendimiento disminuye drásticamente si hay pocos ejemplos etiquetados, lo que hace que este paradigma sea frágil y a menudo económicamente insostenible para grandes conjuntos de datos en evolución.

2. Aprendizaje no supervisado (ANS): Descubrimiento de estructuras latentes

El ANS opera exclusivamente sobre datos sin etiquetar, $D = \{X_1, X_2, ..., X_n\}$. Su objetivo consiste en inferir estructuras intrínsecas, distribuciones de probabilidad subyacentes, densidades o representaciones significativas dentro del manifiesto de datos. Sus aplicaciones clave incluyen agrupamiento, aprendizaje de variedades y aprendizaje de representaciones. El ANS es altamente efectivo para preprocesamiento e ingeniería de características, proporcionando información valiosa sin depender de entrada humana externa.

Question 1
Which learning paradigm is designed specifically to mitigate high reliance on expensive human data annotation by utilizing abundant unlabeled data?
Supervised Learning
Unsupervised Learning
Semi-Supervised Learning
Reinforcement Learning
Question 2
If a model's primary task is dimensionality reduction (e.g., finding the principal components) or clustering, which paradigm is universally employed?
Supervised Learning
Semi-Supervised Learning
Unsupervised Learning
Transfer Learning
Challenge: Defining the SSL Objective
Conceptualizing the Combined Loss Function
Unlike SL, which optimizes solely based on labeled fidelity, SSL requires a balanced optimization strategy. The total loss must capture prediction accuracy on the labeled set while enforcing consistency (e.g., smoothness or low density separation) across the unlabeled set.

Given: $D_L$: Labeled Data. $D_U$: Unlabeled Data. $\mathcal{L}_{SL}$: Supervised Loss function. $\mathcal{L}_{Consistency}$: Loss enforcing prediction smoothness on $D_U$.
Step 1
Write the general form of the total optimization objective $\mathcal{L}_{SSL}$, incorporating a weighting coefficient $\lambda$ for the unlabeled consistency component.
Solution:
The conceptual form of the total SSL loss is a weighted sum of the two components: $\mathcal{L}_{SSL} = \mathcal{L}_{SL}(D_L) + \lambda \cdot \mathcal{L}_{Consistency}(D_U)$. The scalar $\lambda$ controls the trade-off between label fidelity and structure reliance.